El método de YouTube para controlar lo que se exhibe en su plataforma

De acuerdo a un reciente informe de Hootsuite, los usuarios de Android pasan un estimado de 23,4 horas al mes viendo contenido en YouTube.

Con un mundo cada vez más hiperconectado y con la actualidad fluyendo a cada minuto, los equipos de la plataforma crean y revisan constantemente sus políticas de la comunidad con tal de detectar de forma previa y eliminar el contenido que puede poner en riesgo al "mundo real".


Cuando se trata de contenido apropiado para la red, es indudable el esfuerzo realizado por las distintas plataformas, con una meticulosa selección de lo que puede estar y lo que no en sus bibliotecas digitales. Día a día empresas como YouTube destacan por su constante curatoría y normas de cuidado de la comunidad, que deben estar al tanto de todo lo circulante por internet.

Con “Contenido dañino” puede entenderse un amplio abanico de alternativas. Pornografía, videos que inciten al odio o que generen malos pensamientos en los usuarios forman parte de ello, pero la idea detrás del concepto es una: que una pieza audiovisual, de acuerdo con cuál sea su contexto, no produzca peligro alguno en “el mundo real”.

Para lograrlo, diversas firmas han recurrido a la tecnología y estas han cobrado un rol cada vez más relevante en la selección previa de lo que puede entrar y lo que no a sus plataformas. Tanto es así, que hay quienes acusan a este filtro de haberse transformado en una especie de censura y limitancia contra la libertad de expresión.

YouTube es, por lejos, la reina de las plataformas de video en internet, y con el paso de los años cada vez se ha integrado más en el día a día de los usuarios. Asimismo, la cantidad de contenido se multiplica. Por ejemplo, solo en enero de este año tuvo unos 2.562 millones de usuarios activos, según un informe de Hootsuite y We Are Social, frente a los 2.291 millones de 2021. Para el informe “The Global State of Digital 2022″ de la misma firma, que se actualizó a fines de septiembre, los usuarios pasan un estimado de 23,4 horas al mes viendo videos en YouTube.

youtube
YouTube es, por lejos, una de las plataformas con más usuarios activos y la más popular en su tipo. Las políticas de esta red buscan proteger a todos sus visitantes, particularmente a los niños.

Por eso mismo, no es solo cosa de aplicar normativas y “dejarlas andar”. “Continuamos siendo críticos, sumando nuevas voces y compartiendo nuestras ideas sobre la plataforma, también protegiendo a nuestra comunidad de contenido dañino”, aseguró en una rueda de prensa Matt Halprin, vicepresidente y director de Confianza y Seguridad a nivel mundial de YouTube.

Un espejo de la sociedad

El ejecutivo, uno de los encargados de la articulación de normativas para la comunidad de la plataforma, planteó que todo el contenido disponible en YouTube debe ser un reflejo de toda la sociedad del mundo. Y hay que estar alerta, porque el mismo mundo tangible cambia constantemente. Eso significa que están constantemente revisando sus políticas, revisando si hay trends nuevos y que estos mismos cambios se reflejen en su red. Eso sí, una de las preguntas que se hacen al momento de clasificar contenido es si lo que está a punto de subir a su plataforma tiene el potencial de ser un “daño atroz para el mundo real”.

“Con ‘daño atroz’ nos referimos a contenido que tenga una fuerte vinculación con la violencia física”, acotó el ejecutivo. Por ejemplo, durante el periodo más duro de la pandemia del COVID-19, comenzaron a verse reclamos en su plataforma que decían que la tecnología 5G contribuía a esparcir el virus. “Vimos casos en que gente salía a dañar estas torres, y rápidamente revisamos nuestras políticas para no afectar al mundo real... Son cuestiones complejas, que requirieron trabajo con diversos expertos”, apuntó.

Halprin comentó que, para desarrollar una norma en la plataforma, su equipo se dedica a ver cientos de videos para entender las implicancias, porque una política de este tipo nunca es realizada de acuerdo a contenido de una sola publicación. También existen algunos registros que no quieren eliminar y, para que lleguen a los usuarios específicos, se les incluye una restricción de edad.

La inteligencia artificial es el primer gran filtro de YouTube y puede retener, actualmente, a un 90% del contenido dañino antes que se publique.

Junto a estos equipos operan también sistemas de inteligencia artificial que están en un constante entrenamiento. De hecho, estas herramientas o sistemas automatizados son el primer filtro. “Es fácil pensar que la tecnología de aprendizaje automático maneja todo lo que se refiere a la moderación de contenido, especialmente dada la escala del contenido que se carga en una plataforma como YouTube, pero en realidad nuestro sistema es una combinación de aprendizaje automático y revisión humana”, aclaró Jennifer Flannery O’Connor, vicepresidenta de Gestión de Productos de la red.

Las máquinas, afirmó, identifican el contenido potencialmente violento y luego lo nominan para una revisión adicional por parte de moderadores humanos que, en última instancia, toman la decisión final. Ese enfoque colaborativo garantiza que se puedan revisar más de 500 horas de contenido que se cargan a la plataforma a cada minuto, para así incorporar matices necesarios para determinar si se infringen o no sus políticas. Este trabajo lo realizan con más de 10 mil moderadores en su red.

La relevancia del contexto

En YouTube existen ciertas pautas de la comunidad, que denominan los estándares EDSA, y que tienen en cuenta el contenido educativo, documental, científico o artístico de un video. Estos, incluso, permiten que el contenido sea violento en ocasiones. Por ejemplo, dijo, si se muestra un discurso que muestra a Hitler en los mítines de Nuremberg y no se entregó ningún contexto adicional, lo más probable es que la pieza infrinja las políticas de incitación al odio y prontamente esté dado de baja.

Pero si ese mismo video se incluyó como parte de un documental que denuncia los actuares de los nazis, se puede permitir debido a la excepción de documentación. “Esta distinción sobre el contexto tal vez sea más difícil de reconocer para un modelo de aprendizaje automático, pero un moderador humano puede detectar fácilmente el contexto agregado... esto demuestra por qué el juicio humano es relevante para nuestro proceso”, acotó O’Connor.

¿La forma en que saben qué se está haciendo bien? Para cada trimestre realizan informes de transparencia, en el que dan cuenta de la tasa de visualización infractora que, básicamente, analiza cuántas vistas en YouTube provienen de contenido violento. En el tercer trimestre, por ejemplo, ese número estaba entre 0,10 y 0,11%, que significa que, por cada diez mil visitas, entre diez u once eran a contenidos que saltaban las normas de la comunidad.

En el mismo periodo, continuó, eliminaron más de 5,6 millones de videos y recibieron unas 270 mil apelaciones a esas eliminaciones, de las que se restablecieron unas 29 mil.

¿Cómo desarrollan estas políticas cuando se trata de eventos globales y repentinos? Es necesaria la constante revisión y estar al nivel de lo exigido, resume Halprin a Piensa Digital. “Encontrar el equilibrio entre la libertad de expresión y la protección de los usuarios es algo que nunca termina”, comenta. El trabajo toma varios meses, pero hay excepciones, como sucedió con el COVID-19. En ese caso, argumenta, se dependió de fuentes o recursos externos, como organismos políticos o la Organización Mundial de la Salud, entre otras, para que sus políticas se vincularan lo más posible a lo propuesto por estas entidades.

Matt Halprin, vicepresidente y director de Confianza y Seguridad a nivel mundial, y Jennifer Flannery O'Connor, vicepresidenta de Gestión de Productos de YouTube.

Otro de los casos relevantes en cuanto a la contingencia fue la guerra entre Ucrania y Rusia. En esa situación no se crearon nuevas políticas, dice a Piensa Digital, sino que se puso al nivel de medidas ya existentes, entre las que tienen una vertiente llamada “Negación de Grandes Eventos Violentos”. Y la invasión a Ucrania estaba dentro de ese contexto.

Jennifer Flannery O’Connor asegura a que se preocupan por encontrar la mayor cantidad de videos que puedan ser considerados dañinos. Las tecnologías que han aplicado capturan al menos un 90% del contenido a través de aprendizaje automático, previo a que llegue a subirse a internet. Eso sí, es relevante el trabajo conjunto con humanos, porque estas tecnologías pueden estar nominando como peligroso a contenido que no lo es. “Por mucho que intentemos asegurarnos, aunque nuestra precisión sea muy alta, a veces nos equivocaremos”, añade. El equilibrio que buscan, resume, es el de poder darles seguridad a los usuarios y procurar no excederse con las políticas de la comunidad.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.

La disrupción digital es aquella transformación radical y profunda de los modelos de negocio de una empresa. Es un proceso muy beneficioso, pero no es sencillo. En esta entrevista, Juan José de la Torre, CEO de Raven y especialista en disrupción, explica los fundamentos de este proceso y cómo abordarlo.